1
Dalla Programmazione Tradizionale alle Applicazioni con Intelligenza Artificiale Generativa
AI011Lesson 3
00:00

Dalla Programmazione Tradizionale alle Applicazioni con Intelligenza Artificiale Generativa

Il panorama dello sviluppo software sta subendo un cambiamento fondamentale. Stiamo passando da una programmazione rigida e basata su comandi a una più flessibile e guidata dal linguaggio naturale Intelligenza Artificiale Generativa interazione.

1. Rompere la Catena dei Comandi

Cos'è: Le applicazioni tradizionali si basano su interfacce utente grafiche (GUI) fisse o su insiemi di comandi specifici e dipendenti dal linguaggio. Se un utente si discosta dall'input previsto, il sistema fallisce.

Perché è importante: Le applicazioni con Intelligenza Artificiale Generativa offrono una flessibilità senza precedenti. Consentono agli utenti di interagire usando il linguaggio naturale per raggiungere obiettivi complessi, adattandosi all'intento piuttosto che solo alla sintassi.

2. Il Principio dell'Non-Determinismo

Cos'è: Nel codice tradizionale, $1 + 1$ è sempre uguale a $2$. È deterministico. Modelli Linguistici di Grande Dimensione (LLMs), al contrario, operano in base alle probabilità.

Come funziona: Possono produrre risultati diversi per lo stesso prompt esatto. Questa varietà viene gestita tramite parametri specifici, in particolare Temperatura.

3. Elementi Fondamentali: Token e Temperatura

  • Token: I blocchi numerici fondamentali del testo utilizzati dal modello. Le parole vengono suddivise in queste unità sottoparole.
  • Temperatura: Un parametro (che va da $0.0$ a $1.0$) che controlla la casualità. I valori bassi producono testi prevedibili e focalizzati; i valori alti incoraggiano output creativi e diversificati.
Sicurezza Prima di Tutto
Mai codificare direttamente le chiavi API nel codice dell'applicazione. Usa sempre variabili d'ambiente (ad esempio, .env file) per proteggere le risorse dell'IA da accessi non autorizzati.
app.py
TERMINALbash — 80x24
> Ready. Click "Run" to execute.
>
Question 1
Why are Large Language Models (LLMs) described as "non-deterministic"?
Because they can produce different results for the same prompt every time.
Because they always return the exact same output for a given input.
Because they cannot run on standard computer processors.
Because they require quantum computing to function.
Question 2
Which parameter should you decrease if you want the AI output to be more predictable and less creative?
Max Tokens
Top-P
Temperature
Frequency Penalty
Challenge: Building a "Study Buddy"
Apply your knowledge to a real-world scenario.
You are building a "Study Buddy" application that must provide strictly factual definitions for students preparing for exams. The application will connect to an Azure OpenAI resource.
Task 1
Identify the optimal Temperature setting for this specific task.
Solution:
Set Temperature to 0.0 or 0.1. This minimizes randomness and ensures the model provides the most likely, factual, and consistent definitions rather than creative or hallucinated responses.
Task 2
How should you secure the application's sensitive connection data?
Solution:
Move the API_KEY from the main code file into an environment variable or a hidden .env file. Use os.getenv("AZURE_OPENAI_KEY") to retrieve it securely at runtime.